1
Dari Kode Tradisional ke Aplikasi Berbasis AI Generatif
AI011Lesson 3
00:00

Dari Kode Tradisional ke Aplikasi Berbasis AI Generatif

Lanskap pengembangan perangkat lunak sedang mengalami perubahan mendasar. Kami bergerak dari pemrograman yang kaku dan berbasis perintah menuju pendekatan yang fleksibel dan berbasis bahasa alami AI Generatif interaksi.

1. Memutus Rantai Perintah

Apa itu: Aplikasi tradisional bergantung pada antarmuka pengguna grafis (GUI) tetap atau kumpulan perintah khusus yang bergantung pada bahasa. Jika pengguna menyimpang dari masukan yang diharapkan, sistem akan gagal.

Mengapa penting: Aplikasi berbasis AI generatif menawarkan fleksibilitas tanpa batas. Mereka memungkinkan pengguna berinteraksi menggunakan bahasa alami untuk mencapai tujuan kompleks, dengan menyesuaikan diri terhadap niat bukan hanya sintaks.

2. Prinsip Non-Determinisme

Apa itu: Dalam kode tradisional, $1 + 1$ selalu sama dengan $2$. Ini bersifat deterministik. Model Bahasa Besar (LLMs), sebaliknya, beroperasi berdasarkan probabilitas.

Bagaimana cara kerjanya: Mereka dapat menghasilkan hasil yang berbeda untuk permintaan yang persis sama. Keragaman ini dikelola melalui parameter tertentu, paling utama Suhu.

3. Blok Pembangun: Token & Suhu

  • Token: Blok pembangun numerik dasar yang digunakan oleh model untuk teks. Kata-kata dipecah menjadi unit-unit sub-kata ini.
  • Suhu: Pengaturan (berkisar dari $0.0$ hingga $1.0$) yang mengendalikan tingkat acak. Nilai rendah menghasilkan teks yang dapat diprediksi dan fokus; nilai tinggi mendorong hasil yang kreatif dan beragam.
Keamanan Utama
Jangan langsung menulis kunci API secara keras dalam kode aplikasi Anda. Selalu gunakan variabel lingkungan (misalnya, .env file) untuk melindungi sumber daya AI Anda dari akses tidak sah.
app.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why are Large Language Models (LLMs) described as "non-deterministic"?
Because they can produce different results for the same prompt every time.
Because they always return the exact same output for a given input.
Because they cannot run on standard computer processors.
Because they require quantum computing to function.
Question 2
Which parameter should you decrease if you want the AI output to be more predictable and less creative?
Max Tokens
Top-P
Temperature
Frequency Penalty
Challenge: Building a "Study Buddy"
Apply your knowledge to a real-world scenario.
You are building a "Study Buddy" application that must provide strictly factual definitions for students preparing for exams. The application will connect to an Azure OpenAI resource.
Task 1
Identify the optimal Temperature setting for this specific task.
Solution:
Set Temperature to 0.0 or 0.1. This minimizes randomness and ensures the model provides the most likely, factual, and consistent definitions rather than creative or hallucinated responses.
Task 2
How should you secure the application's sensitive connection data?
Solution:
Move the API_KEY from the main code file into an environment variable or a hidden .env file. Use os.getenv("AZURE_OPENAI_KEY") to retrieve it securely at runtime.